Model compression via quantization and sparsity enhancement has gained an immense interest to enable the deployment of deep neural networks (DNNs) in resource-constrained edge environments. Although these techniques have shown promising results in reducing the energy, latency and memory requirements of the DNNs, their performance in non-ideal real-world settings (such as in the presence of hardware faults) is yet to be completely understood. In this paper, we investigate the impact of bit-flip and stuck-at faults on activation-sparse quantized DNNs (QDNNs). We show that a high level of activation sparsity comes at the cost of larger vulnerability to faults. For instance, activation-sparse QDNNs exhibit up to 17.32% lower accuracy than the standard QDNNs. We also establish that one of the major cause of the degraded accuracy is sharper minima in the loss landscape for activation-sparse QDNNs, which makes them more sensitive to perturbations in the weight values due to faults. Based on this observation, we propose the mitigation of the impact of faults by employing a sharpness-aware quantization (SAQ) training scheme. The activation-sparse and standard QDNNs trained with SAQ have up to 36.71% and 24.76% higher inference accuracy, respectively compared to their conventionally trained equivalents. Moreover, we show that SAQ-trained activation-sparse QDNNs show better accuracy in faulty settings than standard QDNNs trained conventionally. Thus the proposed technique can be instrumental in achieving sparsity-related energy/latency benefits without compromising on fault tolerance.
translated by 谷歌翻译
神经符号(NESY)集成将符号推理与神经网络(NNS)结合在一起,用于需要感知和推理的任务。大多数NESY系统都依赖于逻辑知识的持续放松,并且在模型管道中没有做出离散决策。此外,这些方法假定给出了符号规则。在本文中,我们提出了深入的符号学习(DSL),这是一个学习NESY函数的NESY系统,即,(集合)感知函数的组成,将连续数据映射到离散符号,以及一组符号功能符号。 DSL同时学习感知和符号功能,同时仅接受其组成(NESY功能)训练。 DSL的关键新颖性是它可以创建内部(可解释的)符号表示形式,并将其映射到可区分的NN学习管道中的感知输入。自动选择创建的符号以生成最能解释数据的符号函数。我们提供实验分析,以证实DSL在同时学习感知和符号功能中的功效。
translated by 谷歌翻译
在本文中,我们尝试使用神经网络结构来预测仅从其主要结构(氨基酸序列)的蛋白质的二级结构({\ alpha}螺旋位置)。我们使用该FCNN实施了完全连接的神经网络(FCNN)和预成型的三个实验。首先,我们对在鼠标和人类数据集进行训练和测试的模型进行跨物种比较。其次,我们测试了改变蛋白质序列长度的影响,我们输入了模型。第三,我们比较旨在专注于输入窗口中心的自定义错误功能。在论文的最后,我们提出了一个可以应用于问题的替代性,复发性神经网络模型。
translated by 谷歌翻译
强化学习最近已成为解决棋盘游戏领域中复杂问题的非常强大的工具,其中通常需要代理来根据其自身的经验和收到的奖励来学习复杂的策略和移动。尽管RL胜过用于玩简单视频游戏和受欢迎的棋盘游戏的现有最新方法,但它尚未证明其在古代游戏中的能力。在这里,我们解决了一个这样的问题,在该问题中,我们使用不同的方法来训练代理商,即蒙特卡洛,Qlearning和Hir Hir Hight Sarsa能够学习最佳政策来发挥战略性的UR皇家游戏。我们游戏的状态空间很复杂,但是我们的代理商在玩游戏和学习重要的战略动作方面表现出令人鼓舞的结果。尽管很难得出结论,当接受有限的资源培训时,算法总体上的表现更好,但预计SARSA在学习最快的学习方面表现出了令人鼓舞的结果。
translated by 谷歌翻译
听诊器录制的胸部声音为新生儿的偏远有氧呼吸健康监测提供了机会。然而,可靠的监控需要高质量的心脏和肺部声音。本文介绍了新生胸部声音分离的新型非负基质分子(NMF)和非负矩阵协同分解(NMCF)方法。为了评估这些方法并与现有的单源分离方法进行比较,产生人工混合物数据集,包括心脏,肺和噪音。然后计算用于这些人造混合物的信噪比。这些方法也在现实世界嘈杂的新生儿胸部声音上进行测试,并根据生命符号估计误差评估,并在我们以前的作品中发达1-5的信号质量得分。此外,评估所有方法的计算成本,以确定实时处理的适用性。总的来说,所提出的NMF和NMCF方法都以2.7db到11.6db的下一个最佳现有方法而言,对于人工数据集,0.40至1.12的现实数据集的信号质量改进。发现10S记录的声音分离的中值处理时间为NMCF和NMF的342ms为28.3。由于稳定且稳健的性能,我们认为我们的提出方法可用于在真实的环境中弃绝新生儿心脏和肺部。提出和现有方法的代码可以在:https://github.com/egrooby-monash/heart-and-lung-sound-eparation。
translated by 谷歌翻译
随着数据湖泊在今天的大型企业中越来越受欢迎,越来越需要在数据湖泊中标记或分类数据湖泊中的数据资产(例如,文件和数据库),以及所推断的元数据可以启用一系列下游应用程序,如数据治理(例如,GDPR合规性)和数据集搜索。鉴于当今企业数据湖泊的纯粹大小与数据库和数百万数据资产,数据资产必须是“自动标记”的,使用轻量级推理算法和最小用户输入。在这项工作中,我们开发Auto-Tag,一种语料库驱动方法,可自动为企业数据湖泊中的\ Textit {Custom}数据类型提供数据标记。使用自动标记,用户只需要提供\ texit {ONE}示例列以演示所需的数据类型标记。利用索引结构使用数据湖的轻量级扫描建立了脱机,类似于机器学习中的预先训练,自动标签可以将合适的数据模式推断为最好的“描述”“底层的”域“以交互式速度给定列,然后可以用于标记数据湖泊中的相同“类型”的附加数据。自动标签方法可以适应自定义数据类型,并显示为准确且高效。 Auto-Tag的一部分是一种基于云的数据治理和目录解决方案\ Texit {Azure PurView}的“自定义分类”功能。
translated by 谷歌翻译
在自主驾驶中,在使用深神经网络的爆炸中爆炸用于感知,预测和规划任务。由于自主车辆(AVS)更接近生产,多模态传感器输入和具有不同传感器平台的异构车队在该行业中变得越来越普遍。然而,神经网络架构通常是针对特定的传感器平台,并且对输入的变化并不稳健,使得缩放和模型部署的问题特别困难。此外,大多数玩家仍然将软件和硬件的问题视为完全独立的问题。我们提出了一个新的终端架构,广义传感器融合(GSF),其设计成使得传感器输入和目标任务都是模块化和可修改的。这使AV系统设计人员能够轻松地使用不同的传感器配置和方法进行实验,并使用在大型工程组织中共享的相同型号开辟了在异构船队上部署的能力。使用该系统,我们报告了实验结果,我们展示了昂贵的高密度(HD)激光雷达传感器的近似奇偶阶段,具有3D对象检测任务中的廉价低密度(LD)LIDAR加相机设置。这为行业铺平了道路,共同设计硬件和软件架构以及具有异质配置的大船队。
translated by 谷歌翻译
Covid-19大流行的发作使风险的心理健康带来了。社会咨询在这种环境中取得了显着意义。与一般面向目标的对话不同,患者和治疗师之间的对话是相当明暗的,尽管谈话的目标非常明显。在这种情况下,了解患者的目的在提供治疗会话中提供有效咨询方面是必要的,同样适用于对话系统。在这项工作中,我们前进是一个小小的一步,在开发精神健康咨询的自动对话系统中。我们开发一个名为HOPE的新型数据集,为咨询谈话中的对话行为分类提供平台。我们确定此类对话的要求,并提出了12个域特定的对话法(DAC)标签。我们收集12.9k的话语从youtube上公开的咨询会话视频,用DAC标签提取他们的成绩单,清洁并注释它们。此外,我们提出了一种基于变压器的架构的Sparta,具有新颖的扬声器和时间感知的语境学习,用于对话行动分类。我们的评价显示了若干基线的令人信服的表现,实现了最先进的希望。我们还通过对Sparta进行广泛的实证和定性分析来补充我们的实验。
translated by 谷歌翻译
虽然编程是现代社会中最广泛适用的技能之一,但现代机器学习模型仍然无法对基本问题的解决方案。尽管重要的是,对评估代码生成令人惊讶的是,很少有效,并且难以准确地评估代码生成性能。为了满足这一挑战,我们介绍了一个用于代码生成的基准。与在更受限制的设置中的事先工作不同,我们的基准测试衡量模型采取任意自然语言规范的能力,并生成满意的Python代码。类似于公司如何评估候选软件开发人员,然后我们通过检查测试用例的生成代码来评估模型。我们的基准测试包括10,000个问题,从具有简单的单线解决方案来实现实质性算法挑战。我们在GitHub和我们的培训集上微调大型语言模型,我们发现语法错误的普遍性随着模型的提高而导致呈指数级递减。最近的模型如GPT-Neo可以通过大约20%的介绍性问题的测试用例,因此我们发现机器学习模型现在开始学习如何代码。随着自动代码生成的社会意义在未来几年增加,我们的基准可以提供跟踪进步的重要措施。
translated by 谷歌翻译
许多智力努力需要解决数学问题,但这种技能仍然超出了计算机的能力。为了测量机器学习模型中的这种能力,我们介绍了数学,这是一个12,500个挑战性竞争数学问题的新数据集。数学中的每个问题都有一个完整的逐步解决方案,可用于教授模型来生成答案派生和解释。为了促进未来的研究和提高数学准确性,我们还提供了一个大型辅助预制数据集,有助于教导模型数学的基本原则。尽管我们能够提高数学准确性,但我们的结果表明,即使有巨大的变压器模型,即使有巨大的变压器模型也是相对较低的。此外,我们发现,如果缩放趋势持续,则无法增加预算和模型参数计数对于实现强大的数学推理,这将是不切实际的。虽然缩放变压器正在自动解决大多数基于文本的任务,但缩放目前没有解决数学。为了在数学问题上进行更多牵引,我们可能需要更广泛的研究界的新算法进步。
translated by 谷歌翻译